Jak nauczyliśmy maszyny liczyć i myśleć za nas? Część 20: Doniosłe znaczenie błędów w programach
Od początku rozwoju informatyki błędy w programach stanowiły poważny problem. Istniała konieczność pisania wielu programów dla wielu różnych zastosowań. Lecz ludzie są omylni, dlatego błędy w programach zdarzały się dość często.
Historia informatyki, którą staram się przybliżyć państwu w kolejnych felietonach tej serii, składa się z historii rozwoju sprzętu (hardware) i oprogramowania (software). O historii rozwoju sprzętu komputerowego pisałem w częściach od 1 do 13 felietonów tej serii, natomiast kolejne części prezentowały historię rozwoju metod i narzędzi programowania (w szczególności języków algorytmicznych). Dziś chcę się zająć wstydliwą częścią historii programowania, to znaczy opowiedzieć o błędach popełnianych w programach i ich konsekwencjach tychże błędów.
Skąd się wzięła pluskwa?
Od początku rozwoju informatyki błędy w programach stanowiły poważny problem. Istniała konieczność pisania wielu programów dla wielu różnych zastosowań – ale ludzie są omylni, dlatego błędy w programach zdarzały się dość często. Obecnie, wiedząc o tym, stosujemy takie języki programowania, żeby prawdopodobieństwo popełnienia błędu uczynić możliwie jak najmniejszym. Ale na początku, gdy programowano w językach maszynowych (vide „Początki programowania”, „Rzecz o Historii” z 17 grudnia 2021 r.) i zaczęto się zmagać z pierwszymi błędami w programach, zaczęto też nazywać owe błędy pluskwami (ang. bug). Wiadomo, że tę nazwę wprowadziła do języka informatyki Grace Hopper. O tej niezwykłej kobiecie pisałem...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta